时政
财经
科技
登录
#Agentic RAG
关注
𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞
2周前
LLM出现的第一天起,就有很多人想把LLM这种公域的认知智能应用于企业场景。首先面临的是需要喂给LLM企业具体场景的知识作为上下文,输出为企业场景需要的业务文本、逻辑和智能,以及结合agent自动化工作流提高效率。 场景知识注入的挑战,表现为一个RAG问题,RAG从naive、advanced到modular,以及为了解决知识碎片化的GraphRAG,甚至近期更提出了agentic RAG,把知识提取作为一个更自主和自适应的企业AI Multi-Agengt应用的一个模块。
#LLM
#企业应用
#知识注入
#RAG
#自动化工作流
#GraphRAG
#Agentic RAG
分享
评论 0
0
宝玉
5个月前
DailyDoseofDS 这个图把传统 RAG 和 Agentic RAG 之间的差异分的比较清楚。 传统 RAG 就是先把文档向量化保存到向量数据库,然后在用户查询时,对用户的问题也做向量化,从向量数据库中找到相关的文档,再把问题和找出来的结果交给 LLM 去总结生成。 这种方式的优点就是简单,由于不需要太多次和 LLM 之间的交互,成本也相对低,但缺点是经常会因为做相似检索时,找不到合适的结果,而导致生成结果不理想。 Agentic RAG 则是在过程中引入 AI 智能体: - 先对用户的查询内容用智能体进行重写,比如修正拼写错误等 - 智能体判断是不是还需要额外的信息,比如可以去搜索引擎搜索,或者调用工具获取必要的信息 - 当 LLM 生成内容后,在返回给用户之前,让智能体去检查答案是不是和问题相关,是不是能解决用户的问题,如果不行,则返回第一步,修改查询内容,继续迭代,直到找到相关的内容,或者判断该问题无法回答,告知用户结果。 当然这样做的缺点是成本要相对高一些,并且耗时会更长。
#RAG
#Agentic RAG
#向量数据库
#LLM
#自然语言处理
#信息检索
#数据处理
分享
评论 0
0
个人主页
通知
我的投稿
我的关注
我的拉黑
我的评论
我的点赞